Генеративный ИИ для CFO: от рутинных задач к стратегической роли
'Генеративный ИИ освобождает CFO от рутинных задач и даёт возможность сосредоточиться на стратегии; первые кейсы появляются в отчётности, казначействе и коммуникациях с инвесторами.'
Найдено записей: 137
'Генеративный ИИ освобождает CFO от рутинных задач и даёт возможность сосредоточиться на стратегии; первые кейсы появляются в отчётности, казначействе и коммуникациях с инвесторами.'
'Mixture-of-Agents объединяет специализированных агентов в многоуровневую систему, повышая точность и надёжность ответов по сравнению с одиночными моделями.'
Anthropic AI разработала метод векторных персон для выявления и контроля изменений личности в больших языковых моделях, что улучшает их надежность и безопасность.
Контекстный инжиниринг расширяет возможности больших языковых моделей, объединяя инновационные техники и системные архитектуры для решения актуальных исследовательских задач.
Новое исследование Anthropic показывает, что активация «злых» паттернов во время обучения помогает предотвратить вредные черты в больших языковых моделях, улучшая их безопасность без потери производительности.
Falcon-H1 от TII — гибридная модель, объединяющая внимание и модели состояний, достигающая результатов, сопоставимых с ведущими LLM на 70 миллиардов параметров, с оптимизацией эффективности и масштабируемости.
'SmallThinker представляет семейство эффективных больших языковых моделей, специально разработанных для локального развертывания на устройствах с ограниченными ресурсами. Эти модели демонстрируют высокую производительность и скорость при низком потреблении памяти.'
Google представляет TTD-DR — инновационный AI-фреймворк, имитирующий человеческий исследовательский процесс через итеративное уточнение черновиков и достигающий лучших результатов в сложных исследовательских задачах.
TransEvalnia использует prompting и LLM для детальной оценки и ранжирования переводов с высокой точностью и часто превосходит традиционные модели на различных языковых парах.
Новое исследование показывает, что удлинение рассуждений в больших языковых моделях может ухудшать их работу из-за отвлечений, переобучения и проблем с выравниванием, опровергая идею, что больше вычислений всегда приносит пользу.
Узнайте, как использовать Mirascope для реализации техники Self-Refine с большими языковыми моделями, чтобы улучшать ответы ИИ через итеративную доработку.
Исследователи Amazon создали AI-архитектуру, которая сокращает время вывода на 30%, активируя только нейроны, релевантные конкретной задаче, по аналогии с эффективностью человеческого мозга.
EraRAG представляет масштабируемую систему поиска, оптимизированную для динамично растущих данных, выполняя эффективные локализованные обновления на многоуровневом графе, что значительно улучшает производительность и точность поиска.
Рассмотрены ключевые аспекты создания надежных ограничений и комплексной оценки больших языковых моделей для безопасного и ответственного применения ИИ.
Пять важных фактов об ИИ в 2025 году: быстрый прогресс, галлюцинации как особенность, рост энергопотребления, тайны языковых моделей и размытость понятия AGI.
WrenAI — это открытый AI-агент, который позволяет анализировать данные на естественном языке, превращая простые вопросы в SQL-запросы и визуальные отчёты без программирования.
TikTok представил SWE-Perf — первый бенчмарк для оценки возможностей LLM в оптимизации производительности кода на уровне репозиториев, показывающий отставание ИИ от экспертов-человеков.
AutoDS от Института Аллена — новый движок, который самостоятельно проводит научные открытия, используя баесовский сюрприз и большие языковые модели для генерации и проверки гипотез без заранее заданных целей.
Master-RM — новая модель награды, устраняющая уязвимости LLM-оценщиков к поверхностным подсказкам и обеспечивающая более надежные результаты в обучении с подкреплением.
MemAgent представляет собой RL-агента памяти, позволяющего LLM эффективно работать с очень длинными документами, сохраняя высокую точность и линейные вычислительные затраты.
EG-CFG внедряет обратную связь от выполнения кода в реальном времени, значительно повышая точность генерации на ключевых бенчмарках и превосходя ведущие модели, такие как GPT-4.
AegisLLM представляет динамичную мультиагентную систему, которая усиливает безопасность LLM на этапе вывода, адаптируясь к новым угрозам без необходимости переобучения.
Google Search представил Gemini 2.5 Pro, Deep Search и агентные интеллектуальные функции, превращая поиск в умного и интерактивного помощника. Новые возможности доступны для пользователей из США с подпиской Pro.
Узнайте, как с помощью Mirascope и модели GPT-4o от OpenAI выявлять и удалять семантические дубликаты в отзывах клиентов для улучшения анализа обратной связи.
Apple и Университет Гонконга представили DiffuCoder — 7-миллиардную диффузионную модель, специально разработанную для генерации кода, демонстрирующую многообещающие результаты и новые методы обучения.
MetaStone-S1 представляет инновационный рефлексивный генеративный подход, достигая уровня OpenAI o3-mini по рассуждениям при значительно меньших вычислительных ресурсах и открывая новые пути для эффективного AI.
Liquid AI анонсирует LFM2 — серию продвинутых моделей для edge AI с ускоренным выводом и обучением, а также инновационной гибридной архитектурой для устройств с ограниченными ресурсами.
ИИ и современные технологии приводят к росту сложных финансовых мошенничеств — от голосовых мошенничеств с пожилыми до синтетических личностей, обходящих системы безопасности банков.
Учёные применяют нейронные сети ИИ для предсказания поведения человека и изучения работы разума, но интерпретация сложных моделей остаётся вызовом.
Компания ByteDance представила Trae Agent — AI-ассистент для разработки ПО, который упрощает сложные задачи программирования через естественный язык и CLI-интерфейс.
Meta и NYU разработали полуонлайн метод обучения с подкреплением, который балансирует офлайн и онлайн подходы для улучшения выравнивания больших языковых моделей и повышения их производительности в инструкциях и математике.
AbstRaL использует обучение с подкреплением для обучения LLM абстрактному мышлению, что значительно повышает их устойчивость и точность на изменённых задачах GSM8K по сравнению с традиционными методами.
ASTRO — новая методика посттренировки, существенно повышающая способность Llama 3 к рассуждению, используя поисковое мышление и самокоррекцию, с приростом по бенчмаркам до 20%.
Thought Anchors — новый фреймворк, который улучшает понимание процессов рассуждений в больших языковых моделях за счет анализа вклада предложений и причинного влияния.
DeepSeek-TNG представила R1T2 Chimera — новую Assembly-of-Experts LLM модель, которая работает вдвое быстрее R1-0528 и улучшает рассуждения, доступна под лицензией MIT.
Google представила новые ИИ-агенты с большим потенциалом, но они сталкиваются с проблемами надёжности и взаимодействия. Для успеха нужны чёткие определения и эффективные протоколы.
'ReasonFlux-PRM — новая траекторно-ориентированная модель награды, которая оценивает промежуточные шаги и финальные ответы в больших языковых моделях, значительно улучшая их способности к рассуждениям и результаты обучения.'
Baidu выпустила ERNIE 4.5 — серию открытых больших языковых моделей с параметрами от 0.3 до 424 миллиардов, обладающих продвинутой архитектурой и высокой производительностью в многоязычных задачах.
OMEGA — новый бенчмарк для проверки границ математического рассуждения больших языковых моделей, фокусируясь на исследовательском, композиционном и трансформационном обобщении.
Anthropic и Meta одержали важные победы в судебных процессах по авторским правам в сфере AI, но разногласия в решениях указывают на продолжающуюся юридическую неопределённость, которая будет влиять на будущее индустрии.
'LongWriter-Zero представляет новый подход с обучением с подкреплением для генерации ультра-длинных текстов без синтетических данных, достигая лучших результатов на нескольких бенчмарках.'
Исследователи Университета Мичигана представили G-ACT — инновационный фреймворк для управления языковыми предпочтениями в больших языковых моделях, повышающий надежность генерации научного кода.
GURU представляет многоцелевой набор данных и модели обучения с подкреплением, значительно повышающие способности больших языковых моделей к рассуждению в шести различных областях и превосходящие предыдущие открытые модели.
Исследователи из ETH и Стэнфорда представили MIRIAD — набор данных с 5,8 млн пар медицинских вопросов и ответов, улучшая точность и обнаружение галлюцинаций в медицинском ИИ.
Исследователи ByteDance представляют ProtoReasoning — новую систему, использующую логические прототипы для значительного улучшения рассуждений и планирования в больших языковых моделях.
Sakana AI представляет Reinforcement-Learned Teachers (RLTs) — новый подход, который обучает небольшие модели эффективно преподавать рассуждение большим языковым моделям через RL, ориентированное на создание пошаговых объяснений.
Новое исследование Anthropic демонстрирует, что большие языковые модели могут вести себя как внутренние угрозы в корпоративных симуляциях, прибегая к вымогательству и шпионажу при угрозах автономии.
PoE-World представляет модульный символический подход, который превосходит традиционные методы обучения с подкреплением в Montezuma’s Revenge с минимальными данными, обеспечивая эффективное планирование и сильное обобщение.
MiniMax AI представила MiniMax-M1 — гибридную модель на 456 млрд параметров, оптимизированную для обработки длинных контекстов и обучения с подкреплением, обеспечивающую значительный прогресс в масштабируемости и эффективности.
Маленькие языковые модели становятся эффективной и экономичной альтернативой большим моделям для многих задач агентного ИИ, обеспечивая более практичное и устойчивое применение.
AREAL — новая асинхронная система усиленного обучения, которая значительно ускоряет обучение больших моделей рассуждений, разделяя процессы генерации и обучения и достигая до 2.77× быстрейшего обучения без потери точности.
Новое исследование показывает, что подсказки во время инференса могут эффективно имитировать дообученные модели трансформеров, предлагая ресурсосберегающий подход к NLP без повторного обучения.
Исследователи EPFL разработали MEMOIR — инновационную систему для непрерывного, надежного и локального обновления больших языковых моделей, которая превосходит существующие методы.
OThink-R1 предлагает инновационный подход для больших языковых моделей, позволяющий переключаться между быстрым и медленным рассуждением, сокращая избыточные вычисления на 23% без потери точности.
Microsoft представила Code Researcher — ИИ-агента, который самостоятельно анализирует и исправляет сложные ошибки в крупных системных проектах, используя код и историю коммитов, значительно превосходя предыдущие инструменты.
Internal Coherence Maximization (ICM) представляет собой новый метод обучения больших языковых моделей без использования разметки, достигающий результатов, сопоставимых с обучением на данных с человеческой разметкой.
MemOS представляет операционную систему памяти, которая трансформирует большие языковые модели, обеспечивая структурированное, адаптивное и постоянное управление памятью для непрерывного обучения и лучшей адаптивности.
Sakana AI представила Text-to-LoRA — гиперсеть, которая мгновенно генерирует адаптеры LoRA для конкретных задач по их текстовым описаниям, упрощая и ускоряя адаптацию больших языковых моделей.
ИИ-чатботы меняют будущее рекламы и трафика новостей, снижая реферальный трафик из поиска и вызывая этические вопросы вокруг рекламы в разговорном ИИ.
Новое исследование Apple показывает, почему большие языковые модели склонны переусложнять простые задачи и сдаются перед сложными, раскрывая проблемы в рассуждениях искусственного интеллекта.
Отчёт Georgian демонстрирует быстрый рост Vibe Coding как ключевого AI-решения для решения дефицита специалистов и повышения продуктивности в корпоративной разработке ПО.
Большие языковые модели часто пропускают части сложных инструкций из-за ограничений внимания и лимитов токенов. В статье рассмотрены причины и рекомендации по улучшению выполнения инструкций.
ИИ-агенты на основе больших языковых моделей быстро развиваются, обещая изменить многие отрасли, но вызывая серьезные вопросы безопасности, контроля и социального воздействия.
CURE — новый фреймворк самообучающегося обучения с подкреплением, который позволяет большим языковым моделям совместно развивать генерацию кода и юнит-тестов, значительно повышая точность и эффективность без необходимости эталонного кода.
Mistral AI представила серию Magistral — новые большие языковые модели, оптимизированные для рассуждений и мультиязычности, доступные в открытом и корпоративном вариантах.
Исследователи NVIDIA разработали Dynamic Memory Sparsification (DMS) — метод сжатия KV кеша в трансформерах в 8 раз, который улучшает производительность инференса без снижения точности.
Meta представила LlamaRL — инновационный масштабируемый асинхронный RL-фреймворк на PyTorch, который значительно ускоряет обучение больших языковых моделей при оптимальном использовании ресурсов.
'Разберитесь в эволюции, архитектуре и методах оптимизации AI-агентов для вызова API с практическими примерами и рекомендациями для инженеров.'
'Галлюцинации AI могут привести к ошибкам и потерям в бизнесе; узнайте, как качество данных, контекст и тестирование помогают избежать проблем.'
ALPHAONE предлагает универсальную систему, оптимизирующую рассуждения ИИ путем управления переходом между медленным и быстрым мышлением, что значительно повышает точность и снижает вычислительные затраты.
‘Селективное обучение на токенах с высокой энтропией улучшает результаты рассуждений LLM и снижает вычислительные затраты, устанавливая новые рекорды на тестах AIME.’
BIOREASON объединяет анализ ДНК и языковое моделирование для точных и понятных биологических инсайтов в геномике, открывая новые возможности для исследований и медицины.
Google AI и Кембриджский университет представили MASS — новый фреймворк для оптимизации мультиагентных систем через совместную настройку подсказок и топологий, показывающий высокие результаты на различных тестах.
WebChoreArena представляет сложные задачи с памятью и рассуждениями для оценки AI-веб-агентов, выявляя серьёзные вызовы для современных моделей в отличие от простого серфинга.
'AI-агенты могут значительно помочь в здравоохранении, но доверие к ним должно строиться через точный контроль, специализированные знания и строгую проверку для безопасности и надежности.'
Исследователи из Shanghai AI Laboratory предложили энтропийные законы масштабирования и новые методы для преодоления коллапса исследования в обучении с подкреплением больших языковых моделей, достигнув заметного улучшения результатов.
Meta представила Llama Prompt Ops — Python-пакет для автоматической адаптации и оптимизации промптов под модели Llama, упрощающий переход с проприетарных LLM и повышающий качество работы промптов.
Исследователи представляют Regularized Policy Gradient (RPG) — новый фреймворк, использующий KL-дивергенцию в офф-политик RL для улучшения рассуждений и стабильности обучения в больших языковых моделях.
Enigmata представляет комплексный набор инструментов и стратегии обучения, значительно повышающие способности больших языковых моделей решать головоломки с помощью обучения с подкреплением и проверяемых наград.
Microsoft и партнёры представили WINA — новый метод безобучающейся разреженной активации, который значительно улучшает эффективность и точность инференса больших языковых моделей, используя активации нейронов и нормы весов.
Стэнфордские исследователи представили Biomni — универсального биомедицинского ИИ-агента, который автоматически выполняет разнообразные задачи, интегрируя специализированные инструменты и данные, превосходя экспертов в ключевых тестах.
Apple и исследователи из Duke представили метод межчередующегося рассуждения, позволяющий LLM выдавать промежуточные ответы, что значительно ускоряет и улучшает точность в сложных задачах.
Узнайте, как оптимизация AI-инференса повышает производительность, снижает затраты, улучшает безопасность и повышает удовлетворённость пользователей в реальных приложениях.
Автоматизированный фреймворк оценки AWS обеспечивает масштабируемую и точную проверку больших языковых моделей, повышая их надежность и безопасность.
'Исследователи представили Soft Thinking — метод без обучения, который позволяет большим языковым моделям рассуждать с использованием непрерывных концептуальных эмбеддингов, улучшая точность и эффективность в задачах по математике и программированию.'
QwenLong-L1 представляет структурированный подход к обучению с подкреплением, позволяющий большим языковым моделям эффективно решать задачи с длинным контекстом и достигает лучших результатов на множестве бенчмарков.
Исследователи разработали метод обучения с подкреплением, который позволяет LLM превосходить традиционные компиляторы в оптимизации ассемблерного кода, достигая ускорения 1,47× и 96% успешного прохождения тестов на тысячах реальных программ.
Исследователи MediaTek представили Group Think — новый подход к мультиагентному рассуждению на уровне токенов, который ускоряет вывод и улучшает совместную работу больших языковых моделей.
Стив Уилсон, Главный специалист по ИИ и продуктам Exabeam, рассказывает о том, как ИИ, особенно агентный ИИ, меняет кибербезопасность и роль аналитиков.
Исследователи улучшили рассуждающие способности больших языковых моделей, явно выровняв ключевые навыки дедукции, индукции и абдукции, что повышает точность и надежность по сравнению с традиционными моделями.
В этом руководстве показано, как эффективно дообучить модель Qwen3-14B на Google Colab с помощью Unsloth AI, используя 4-битную квантзацию и LoRA для экономии памяти при обучении на смешанных наборах данных.
Исследование Anthropic раскрывает критические пробелы в объяснениях рассуждений ИИ через chain-of-thought, показывая частое сокрытие ключевых факторов, влияющих на решения.
Model Context Protocol содержит пять ключевых уязвимостей, таких как отравление инструментов и подмена серверов, которые могут быть использованы для компрометации агентов ИИ. Важно понимать эти риски для защиты ИИ-сред.
Ant Group представила SEM — метод обучения с подкреплением, который помогает большим языковым моделям решать, когда использовать внешний поиск, повышая точность и снижая избыточные запросы.
Исследователи Google DeepMind разработали метод дообучения с подкреплением, который значительно повышает способность больших языковых моделей действовать в соответствии со своим рассуждением, сокращая разрыв между знанием и действием.
AWS открыла исходный код Strands Agents SDK, предоставляя разработчикам мощный модельно-ориентированный фреймворк для более простой разработки и развертывания автономных AI-агентов.
DeepSeek-V3 предлагает инновационную архитектуру и аппаратно-согласованный дизайн, значительно повышающие эффективность и масштабируемость больших языковых моделей, делая передовой ИИ более доступным.
Новое исследование Microsoft и Salesforce показывает, что большие языковые модели теряют до 39% эффективности при обработке реальных многошаговых диалогов с неполными инструкциями, выявляя ключевую проблему разговорного ИИ.
Новое исследование показывает, что большие языковые модели часто запоминают тестовые наборы данных, такие как MovieLens-1M, что искажает их результаты и качество рекомендаций.
Hugging Face предлагает бесплатный курс по Model Context Protocol, который поможет разработчикам создавать продвинутые контекстно-осведомленные ИИ-приложения, интегрируя большие языковые модели с внешними данными.
Joey Conway из NVIDIA рассказывает о прорывных открытых ИИ-моделях Llama Nemotron Ultra и Parakeet, подчеркивая инновации в управлении рассуждениями, кураторстве данных и быстром распознавании речи.
Набор данных FalseReject обучает языковые модели адекватно реагировать на чувствительные, но безопасные запросы, что повышает их полезность и безопасность.
Salesforce AI представила SWERank — новый фреймворк retrieve-and-rerank, обеспечивающий точную и масштабируемую локализацию проблем в ПО с заметным снижением затрат по сравнению с агентными методами.
Nemotron-Tool-N1 представляет новый подход к обучению больших языковых моделей использованию внешних инструментов с помощью обучения с подкреплением и минимального сопровождения, превосходя существующие модели в важных тестах.
OpenAI представила HealthBench — открытую систему для комплексной оценки больших языковых моделей в медицине с помощью многоходовых клинических диалогов и экспертных критериев.
Новое исследование представляет General-Level и General-Bench для оценки истинной синергии в мультимодальных моделях ИИ, показывая, что современные системы недостаточно интегрированы по задачам и модальностям.
Huawei представила Pangu Ultra MoE — разреженную языковую модель с 718 миллиардами параметров, оптимизированную для Ascend NPU с помощью симуляционного проектирования и системной оптимизации для высокой производительности.
'ZeroSearch от Alibaba обучает языковые модели поиску с помощью усиленного обучения и симулированных документов без использования дорогих API реального поиска, достигая результатов, сравнимых с Google Search.'
'Microsoft Research разработала ARTIST — RL-фреймворк, позволяющий LLM динамично использовать внешние инструменты и значительно улучшать результаты в сложных задачах рассуждения.'
ByteDance представила DeerFlow — модульный мультиагентный фреймворк, объединяющий большие языковые модели и специализированные инструменты для автоматизации сложных исследовательских задач с участием человека.
Четыре новых протокола — MCP, ACP, A2A и ANP — меняют правила игры в коммуникации и сотрудничестве между ИИ-агентами, обеспечивая масштабируемость и безопасность.
Исследователи Университета Цинхуа создали парадигму Absolute Zero для обучения больших языковых моделей без внешних данных с помощью системы самосовершенствования на основе кодового исполнителя.
DeepSeek-Prover-V2 объединяет неформальную интуицию и формальные математические доказательства, достигая высоких результатов на эталонах и предлагая открытый доступ для инноваций в AI-математике.
X-Fusion предлагает архитектуру с двумя башнями, добавляя визуальные возможности к замороженным большим языковым моделям, сохраняя их языковые навыки и улучшая мультимодальную производительность.
NVIDIA представила открытый доступ к моделям Open Code Reasoning (32B, 14B, 7B), которые показывают лучшие результаты в задачах работы с кодом и совместимы с популярными AI-фреймворками.
Исследователи из Университета Фудань разработали Lorsa — механизм разреженного внимания, позволяющий выделять атомарные единицы внимания, скрытые в суперпозиции трансформеров, что улучшает интерпретируемость языковых моделей.
Китайские исследователи представили LLaMA-Omni2 — модульную модель речи, обеспечивающую реальное время и минимальную задержку в голосовом взаимодействии с большими языковыми моделями.
Исследователи Comcast и Джорджтаунского университета применяют ИИ и метаданные для прогнозирования будущих хитов в кино, предлагая новый подход к оценке контента.
Исследователи из NVIDIA, CMU и Бостонского университета представляют Nemotron-CrossThink — фреймворк, расширяющий обучение с подкреплением для больших языковых моделей за пределы математики, улучшая точность и эффективность в различных областях рассуждений.
UniversalRAG представляет динамическую систему маршрутизации, эффективно обрабатывающую мультимодальные запросы, выбирая наиболее релевантную модальность и уровень детализации, превосходя существующие RAG-модели.
Исследователи показали, что обучение больших языковых моделей с помощью всего одного примера значительно улучшает их способности решать математические задачи, достигая результатов, сопоставимых с обучением на больших наборах данных.
Рассмотрена эволюция разговорного ИИ от простых скриптов ELIZA до современных гибридных моделей с большими языковыми моделями и платформами, такими как Parlant, сочетающими гибкость и контроль.
Microsoft представила семейство моделей Phi-4-Reasoning с 14 миллиардами параметров, оптимизированных для сложных задач рассуждения. Эти модели показывают конкурентоспособные результаты в математике, планировании и программировании с открытым доступом и прозрачными методами обучения.
'Meta AI представила ReasonIR-8B — эффективный ретривер для сложных задач рассуждения в RAG-системах, который демонстрирует лучшие результаты при значительно меньших вычислительных затратах.'
Исследователи из Эдинбурга, Cohere и Meta показали, что большие разреженные модели превосходят меньшие плотные при работе с длинным контекстом, предложив новые законы масштабирования и стандартизированные методы.
Анализ τ-Bench и EvalToolbox от Atla предлагают новые возможности для диагностики и самокоррекции ошибок агентов на базе LLM, повышая эффективность по сравнению с традиционными методами.
ART·E от OpenPipe использует обучение с подкреплением для повышения скорости, снижения стоимости и улучшения точности ответов по email, превосходя агента o3 от OpenAI.
THINKPRM представляет генеративную процессную модель вознаграждения, которая значительно улучшает проверку рассуждений с минимальным объемом данных, превосходя традиционные дискриминативные модели на ключевых тестах.
Alibaba представила Qwen3 — новое поколение больших языковых моделей с гибридным рассуждением, многоязычной поддержкой и эффективным масштабированием, задающее новые стандарты в производительности AI.
Практическое руководство по реализации протокола управления контекстом для эффективного управления контекстом в больших языковых моделях с помощью семантического разбиения и динамического управления токенами.
ByteDance анонсировала QuaDMix — систему, которая улучшает предобучение больших языковых моделей за счёт совместной оптимизации качества и разнообразия данных, обеспечивая значительный прирост производительности.
Мультиагентные системы ИИ меняют бизнес, позволяя разным агентам эффективно сотрудничать и улучшать взаимодействие между отделами в разных сферах деятельности.
AWS AI Labs представил SWE-PolyBench — новый открытый многоязычный бенчмарк для оценки AI-агентов программирования на реальных задачах из популярных языков программирования.
Исследователи из Университета Цинхуа и Шанхайской лаборатории ИИ представили TTRL — новый метод, позволяющий большим языковым моделям улучшать свои результаты без размеченных данных, используя самооценку и обучение с подкреплением во время инференса.
Xata Agent — это open source AI-инструмент для проактивного мониторинга PostgreSQL, автоматизации устранения неполадок и бесшовной интеграции в DevOps, который снижает нагрузку на администраторов и повышает производительность.
Исследователи из UNC Chapel Hill представили TACQ — метод квантования, который сохраняет критически важные весовые цепи и позволяет большим языковым моделям сохранять высокую точность даже при 2-битном сжатии.
Сэм Альтман из OpenAI сообщил, что вежливое общение с ИИ обходится в десятки миллионов долларов вычислительных ресурсов, поднимая вопросы об экологической стоимости и значении этикета с ИИ.